Не так давно мы писали о новых возможностях, анонсированных в новой версии VDI-решения Citrix XenDesktop 7 (и тут), а не так давно компания Citrix сделала доступной для загрузки финальную версию этого продукта.
Напомним и уточним новые возможности Citrix XenDesktop 7.
Возможности HDX Mobile:
Возможность использовать мультитач-жесты и движения пальцев (swipe) для различных команд навигации и скроллинга. Эти команды в реальном времени исполняются в гостевой ОС виртуального ПК.
Контролы меню, которые позволяют на мобильных устройствах просто обрабатывать всплывающие меню в гостевых ОС и навигацию с помощью мыши.
Средства разработки HDX Windows App Mobilization SDK
Улучшения протокола HDX:
Технологии компрессии и редиректа для обработки задач на конечных устройствах, что позволяет эффективно работать с десктопом в WAN-сетях. Технологии HDX теперь используют компрессию по стандарту H.264. Кроме того, теперь можно оптимизировать битрейт передаваемого HD-видео таким образом, что становится возможным его просмотр в 3G-сетях. То есть битрейт автоматически подбирается под скорость имеющегося соединения.
Новый интерфейс Citrix StoreFront унифицирует доступ к приложениям и виртуальному ПК с повышенной безопасностью в корпоративной сети или из внешних источников через решение Citrix NetScaler Gateway.
Также появились новые средства аппаратного ускорения OpenGL через механизм direct-shared hardware acceleration (технология называется HDX 3DPro).
Улучшения средств развертывания и поддержки:
Упрощенные рабочие процессы и средства автоматической проверки конфигурации (Studio) на 80% снижают время, необходимое для развертывания новых служб.
Установка с помощью мастера теперь позволяет развернуть решение за 20 минут.
Возможности облачного управления предоставляют хелпдеск-консоль и возможности наблюдения за производительностью (именно пользовательских метрик) и решения проблем через продукт Citrix EdgeSight. Кроме того, существенно улучшен компонент Citrix Director, реализующий функции технической поддержки.
Технология Flexcast, оптимизированная для развертывания и персонализации виртуальных ПК Windows Server 2012 and Windows 8
Улучшения в сфере облачных вычислений:
Clientless Receiver - возможность доступа к виртуальному ПК через браузер, без необходимости установки дополнительного ПО.
Упрощенная архитектура доставки приложений Windows Server (RDS) или десктопов Citrix из единой консоли.
Автоматизированная миграция физических приложений в виртуальные пакеты средствами технологии Citrix AppDNA.
Новые возможности администрирования, позволяющие решать задачи управления профилями, функциями безопасности StoreFront, а также публикации приложений и оптимизации хранилищ.
Решение Citrix XenDesktop не привязано к используемому гипервизору и может быть использовано на любой платформе, включая Citrix CloudPlatform.
Полная поддержка XenDesktop 7, включая технологию Windows Media client-side content fetching, мультикастинг, перенаправление папок клиентов, Local App Access и IPv6.
Поддержка StoreFront 2.0 - возможность аутентификации по смарт-картам без браузера.
Различные улучшения интерфейса.
H.264 decoding - улучшенная производительность в WAN-сетях.
HDX Insight support – возможность мониторинга трафика через NetScaler Insight Center.
Lync VDI Plug-in for Windows (2013) - специальный плагин позволяет использовать различные аудио и видеоустройства на хостовом ПК.
Поддержка Cisco Virtualization Media Engine (VXME) для обработки аудио и видео на виртуальных ПК.
Улучшенная поддержка сервиса ShareFile.
Скачать Citrix XenDesktop 7 можно по этой ссылке. Пробную версию на 99 пользователей можно также скачать по этой ссылке.
Для тех, кто интересуется деталями решения XenDesktop 7, компания Citrix выпустила хорошую серию статей:
В самом конце прошлой недели компания VMware выпустила обновление своей серверной платформы виртуализации - VMware vSphere 5.1 Update 1. Напомним, что версия vSphere 5.1 вышла еще летом прошлого года, поэтому апдейт продукта назрел уже давно.
Из официального списка новых возможностей VMware vSphere 5.1 Update 1:
Надо сказать, что после vSphere 5.1 Update 1, следующие гостевые ОС НЕ будут поддерживаться со стороны VMware (этот релиз пока их поддерживает):
Windows NT
Все 16-битные версии Windows и DOS (Windows 98, Windows 95, Windows 3.1)
Debian 4.0 и 5.0
Red Hat Enterprise Linux 2.1
SUSE Linux Enterprise 8
SUSE Linux Enterprise 9 младше SP4
SUSE Linux Enterprise 10 младше SP3
SUSE Linux Enterprise 11 младше SP1
Ubuntu releases 8.04, 8.10, 9.04, 9.10 и 10.10
Все релизы Novell Netware
Все релизы IBM OS/2
Самые интересные исправления ошибок ожидают пользователей в подсистеме работы с хранилищами:
1. Наконец-то при выполнении операции Storage vMotion можно полноценно поменять имя виртуальной машины (то есть, целиком - вместе с виртуальными дисками).
Об этом мы уже писали вот тут. Наконец-то это заработало. На сервере vCenter идем в "Administration" -> "vCenter Server Settings" -> "Advanced Settings" и добавляем параметр:
provisioning.relocate.enableRename со значением true
Он применяется не только к VMFS3, но и VMFS5. Теперь вот что поменялось:
VMFS Heap может расти до 640 МБ вместо 256 МБ в прошлом релизе. Это позволяет подключать к хосту ESXi совокупный объем хранилищ до 60 ТБ.
Размер кучи выставляется дефолтно 640 МБ для новых установок и сохраняется на уровне уже имеющегося значения для апгрейдов с предыдущих версий.
Появился новый параметр, позволяющий гарантировать размер кучи - VMFS3.MinHeapSizeMB. Но его нельзя выставить больше, чем 255 МБ (однако она может продолжать расти до 640 МБ).
3. WWNN и WWPN для адаптеров FC HBA отображаются в vSphere Web Client корректно.
Раньше там отображалась бурда в виде ноликов на конце (см. тут). Теперь это поправлено.
Кроме всего этого, появилась хорошая статья KB 2037630, описывающая порядок обновления различных компонентов виртуальной инфраструктуры, построенной на продуктах VMware:
Время от времени мы пишем о графических материалах, позволяющих пользователям и партнерам VMware документировать виртуальную инфраструктуру VMware vSphere, VMware View, VMware SRM и прочее. Мы писали о наборе картинок для VMware vSphere 5 тут и тут, вот об этом наборе иконок, картинок и диаграмм, об этом, а также и об этом неофициальном наборе стенсилов Visio.
Последний как раз вчера и обновился в составе третьей части, которая теперь включает в себя картинки, графику и стенсилы для следующих компонентов:
Обратите внимание, что VMware настаивает на включении в документы, которые содержат эти картинки, какого-то бредового текста, который вы увидите в начале данных презентаций.
Представляем вам седьмую статью автора VM Guru Максима Федотенко, посвященную дополнительным режимам работы инфраструктуры виртуальных ПК. В основном все инфраструктуры виртуальных десктопов строятся для использования удаленного режима в качестве основного, поэтому локальный режим следует по умолчанию запретить для всего View Manager... Таги: VMware, VDI, Security, vSphere, Blogs
На прошлой неделе компания VMware анонсировала новую версию своего решения для виртуализации настольных ПК предприятия VMware Horizon View 5.2. Пользователи предыдущих версий этого продукта, наверняка, заметили, что компания VMware добавила к его названию слово Horizon.
Это все от того, что приставка Horizon означает принадлежность продукта к семейству решений из множества EUC (End User Computing). Продукты под маркой Horizon были объединены в набор VMware Horizon Suite, который включает в себя следующие решения:
VMware Horizon View 5.2 - полноценное решения для виртуализации настольных ПК, о котором сегодня пойдет речь.
VMware Horizon Mirage 4.0 - продукт о котором мы писали вот тут. Это решение, которое позволяет создать образ рабочей станции пользователя, разделив его на слои (система, приложения, а также данные и настройки пользователя), а потом централизованно управлять такими образами. То есть, это продукт для физических сред (и сейчас он пока не интегрирован с VMware View).
VMware Horizon Workspace 1.0 - это комбинация двух интересных продуктов - Horizon Data (бывший Project Octopus - решение а-ля корпоративный Dropbox, о котором мы много писали вот тут), а также Horizon Application Manager - решение для федерации SaaS-приложений и VDI-сервисов (подробная статья здесь).
Напомним, что раньше комплектацию пакета мы уже описывали тут, но с тех пор все немного изменилось - проект VMware Project AppBlast (мы писали о нем тут) был-таки включен в VMware Horizon View. И теперь концепция стала понятной - в пакете VMware Horizon Suite осталось всего 3 продукта (напомним, что ThinApp уже являлся частью VMware View).
Так во что же превратился AppBlast? В полноценного HTML5-клиента виртуальных ПК VMware View:
А теперь приведем краткий обзор возможностей нового решения VMware Horizon View 5.2 (полный обзор будет опубликован после выхода продукта):
Efficient Use of Storage Capacity with SEsparse Disks
Horizon View 5.2 использует возможности VMware vSphere, представляющие новый формат виртуальных дисков Flexible Space Efficiency (Flex-SE он же SE sparse disk), который позволяет найти оптимальное соотношение между потреблением дискового пространства и нагрузкой на хранилище за счет размера выделяемого для диска блока, а также способа управления этими блоками. Кроме этого, появилась возможность возвращения удаленных и неиспользуемых блоков виртуального диска (в гостевой ОС) системе хранения средствами View Composer.
Unified Client with View Desktops in Horizon
Если решение VMware Horizon View установлено в рамках пакета Horizon Suite, то вы получите централизованную консоль доступа к его компонентам, включая View, а также возможности единого входа (Single Sign-On, SSO).
Clientless HTML5 Access to View Desktops & Apps
Это то самое, о чем рассказано в видео выше. Теперь получить доступ к десктопам View можно безо всяких клиентов - просто посредством браузера с поддержкой HTML 5 (через Horizon View Security Server).
Hardware Accelerated 3D Graphics
Интересная возможность VMware Horizon View, позволяющая использовать аппаратные ресурсы GPU-устройства совместно несколькими виртуальными машинами. По-прежнему, виртуальная машина видит универсальное устройство SVGA device, но теперь уже использует возможности 3D-графики в гостевой системе. Соответственно получается 2 режима использования графической акселерации:
vSGA (Shared Graphics Acceleration)
Software 3D renderer
Для таких машин можно делать vMotion без прерывания работы 3D-графики. Пока поддерживаются следующие видеоадаптеры серверов:
PCIEx16 slot
NVIDIA Quadro 4000, 5000 and 6000
Tesla M2070Q
GRID K1 and K2
Improved Video Chat with MSFT Lync Support
Это улучшенная поддержка клиентов Microsoft Lync 2013 в виртуальных ПК, включая полную поддержку VoIP и видеочата для протоколов RDP и PCoIP.
Такжн появилось несколько новых возможностей по интеграции с клиентскими приложениями Microsoft:
Сжатие трафика USB-вебкамер
UDP-канал для ускоренной передачи в WAN
Улучшенная поддержка USB медиа-устройств
Windows 8 Desktop Support
Появилась поддержка виртуальных ПК с гостевыми ОС Windows 8. Исправлены различные баги, имевшие место в предыдущих версиях.
Куча новых возможностей протокола PCoIP
Вот только некоторые из них:
Поддержка сетевых устройств MITM (Man-In-The-Middle)
Настройки PCoIP GPO применяются сразу после изменения
Поддержка Multi Touch для Windows 8
Существенные улучшения безопасности
Улучшения производительности, например, vertical offset caching и другое
Об этом позднее - в полном обзоре новых возможностей.
Horizon Based ThinApp Entitlement for View
Возможность привязать назначение прав на использование виртуальных приложений ThinApp в консоль Horizon Workspace.
Large Pools with more than 8 hosts
Ограничение для связанных клонов в 8 штук хостов ESXi для пула было убрано (подробнее - тут). Теперь действует единый лимит - 32 хоста, неважно Linked Clone пул это или нет.
Multi-VLAN support
Теперь один базовый образ виртуального ПК можно назначить нескольким VLAN или портгруппам.
Кэширование данных для VMware View Manager
Теперь лучше отзывается консоль администрирования (особенно для больших инсталляций).
Улучшение производительности операций Provisioning, Rebalance, Recompose
До двух раз сократилось время развертывания виртуальных ПК и уменьшилось время операции Rebalance для пула.
Integrated Service Console in VC Web Client
Эта экспериментальная возможность позволяет веб-клиенту vSphere Web Client "быть в курсе" объектов VMware View (например, Users, Desktops и Pools). Классная и нужная администраторам штука:
VC Virtual Appliance Support
Да, теперь для установки VMware View поддерживается виртуальный модуль vCenter (vCSA)!
New Admin Dashboard Look & Feel
Теперь новая админка VMware Horizon View выглядит как vSphere Web Client:
Появились также множественные улучшения безопасности решения - но об этом обо всем в следующей статье.
Ну и взглянем на максимумы решения VMware Horizon View 5.2 по сравнению с предыдущей версией VMware View 5.1:
Теперь (ура!) поддерживается 32 хоста в кластере на основе томов VMFS (было 8)
32 хоста в кластере на основе томов NFS (не изменилось)
16 виртуальных машин на физическое ядро (не изменилось)
1000 виртуальных машин на пул виртуальных ПК (для одной реплики) - не изменилось
140 виртуальных машин на один LUN с поддержкой VAAI (не изменилось)
Теперь поддерживается 10 000 ВМ на один сервер vCenter (раньше было 2000)
1000 виртуальных машин на хост VMware ESXi (не изменилось)
О возможности загрузки VMware Horizon View 5.2 будет объявлено дополнительно.
Многие из вас знают продукты StarWind iSCSI SAN и StarWind Native SAN for Hyper-V, предназначенные для создания отказоустойчивых хранилищ виртуальных машин для платформ VMware и Hyper-V. Но немногие знают что компания выпускает целых 3 SDK, которые могут помочь разработчикам интегрировать сторонние решения с продуктами StarWind.
Вот эти пакеты:
StarWind iSCSI SAN SDK
Это основной SDK, позволяющий использовать функциональность продуктов StarWind. С его помощью можно:
Добавлять функции iSCSI Target в собственные приложения.
Разрабатывать собственные SCSI-устройства с нужной функциональностью
Соединять физические устройства с удаленными машинами (SPTI)
Более подробно о StarWind iSCSI SAN SDK можно почитать тут.
StarWind Deduplication SDK
Как понятно из названия, этот SDK позволяет использовать механизмы дедупликации StarWind. Это технология in-line дедупликации данных (то есть во время резервного копирования, а не после) на уровне блоков, которая уже надежно зарекомендовала себя в продуктах StarWind. Она позволяет добиться коэффициента дедупликации данных до 20 к 1, использует регулируемый размер блока (под разные задачи хранилищ) и позволяет использовать кэширование на SSD-накопителях и в оперативной памяти.Об этом средстве мы уже упоминали вот тут.
SDK включает в себя библиотеку кода, примеры использования и документацию по API. Более подробно о StarWind Deduplication SDK можно почитать тут.
StarWind Log-Structured File System (LSFS) SDK
LSFS - это файловая система, предназначенная для хранения нескольких файлов виртуальных устройств (в первую очередь, устройств - образов виртуальных дисков), которая оптимизирована для высокой производительности при нагрузках типа "random access" (что характерно как раз для виртуальных машин).
StarWind LSFS SDK предоставляет:
Слой хранения файлов, которые поддерживает высокую скорость ввода-вывода при случайной записи
Технологию снапшотов
Технологию Thin Provisioning для экономии дискового пространства хранилищ
Технологию дедупликации
Более подробно о StarWind LSFS SDK можно почитать тут.
Интересные новости приходят от Дункана: в VMware vSphere 5.0 Update 2 при переименовании виртуальной машины во время миграции Storage vMotion ее VMDK-диски также переименовываются (раньше это не работало - менялось только имя машины). Но это, почему-то, не включено по умолчанию.
Чтобы это заработало нужно добавить расширенную настройку VMware vCenter. Для этого идем в "Administration" -> "vCenter Server Settings" -> "Advanced Settings" и добавляем параметр:
provisioning.relocate.enableRename со значением true
Итак, титаническая работа была проделана - и диски теперь переименовываются. Однако, почему эта настройка не активирована по умолчанию? Непонятно - бажит наверное...
Для VMware vSphere 5.1 эта штука пока не актуальна (только vSphere 5.0 Update 2), но обещают, что скоро она заработает с очередным апдейтом. Кстати, а почему тут только интерфейс добавления расширенных настроек и нет удаления?
В прошлом году я обещал выложить оффлайн-демо продуктов VMware, которые не попали в обзор, в случае, если будет запрос на их выкладывание сюда. Запросов оказалось достаточно, поэтому продолжим эту традицию, но уже без обзора, а просто выложим файлы списком.
В данной части рассмотрим рекомендации к настройке виртуальных десктопов, как собственно виртуальных машин и их параметров, так и их гостевой операционной системы. Рекомендуется виртуальному десктопу назначать только одну сетевую карту (сетевой адаптер). Во-первых, в большинстве случаев пользователю просто не нужно две сетевые карты, а, во-вторых, сетевые карты естественно будут подключены к разным сетям и могут "шунтировать" межсетевой экран и маршрутизировать пакеты между этими сетями бесконтрольно... Таги: VMware, View, Security, Blogs, Enterprise, VDI
Одновременно с этим компания StarWind объявила также о том, что решение StarWind iSCSI SAN 6.0 для хранения виртуальных машин VMware vSphere также становится бесплатным (при использовании дисковых ресурсов до 128 ГБ), при этом доступны все возможности продукта для обеспечения отказоустойчивости хранилищ. Об этом подробно написано в документе "StarWind iSCSI SAN Free. The difference between free and paid editions".
Для тех, кому лень открывать документ на английском, приводим обновленное сравнение бесплатного и коммерческого изданий StarWind iSCSI SAN 6.0:
StarWind iSCSI SAN
Free Edition - бесплатно
Коммерческие издания (в зависимости от лицензируемой емкости 1 ТБ - 512 ТБ)
Компоненты продукта
Лицензируемая емкость хранилищ
Не ограничена для одного узла и ограничение 128 ГБ для HA-конфигурации (на узел)
1 ТБ - 512 ТБ
Размер кэша
512 МБ
Не ограничен
Централизованное управление
StarWind Console
StarWind Console
Число серверов, входящее в лицензию
2
2 или 3
Число одновременных соединений по iSCSI к хранилищам
В этой статье мы расскажем о новых возможностях, которое приобрело это средство номер 1 для создания iSCSI-хранилищ под виртуализацию Hyper-V.
Итак, что нового:
Много улучшений High Availability. Во-первых, улучшился уровень юзабилити - теперь интерфейсы выглядят проще и работают быстрее. Многие операции снабжены мастерами. Во-вторых, улучшился движок HA - теперь можно производить операции add, remove
и switch для HA-узла без вывода его в режим "Offline".
Новые функции HA-устройств. Теперь в качестве HA-устройств могут быть использованы такие девайсы как deduplicated, thin-provisioned IBV или
DiskBridge. Это означает, что теперь доступна функциональность дедупликации, thin provisioning, снапшоты и прочее для HA-устройств.
Улучшения дедупликации:
Asynchronous replication of deduplicated data - теперь данные для репликации по медленным каналам (WAN) могут передаваться асинхронно, что позволяет использовать решение в DR-сценариях. Кроме того, теперь любой тип устройства может быть целевым для репликации.
Deletion of unused data - неиспользуемые блоки, появляющиеся на дедуплицируемом хранилище, записываются актуальными данными, что позволяет использовать пространство более эффективно.
Decreased memory usage - в этой версии StarWind Native SAN на 30% снижены требования к памяти сервера. Теперь при использовании блоков 4 KB только 2 МБ оперативной памяти требуется на 1 ГБ хранимых данных.
Полная поддержка Windows Server 2012.
Скачать StarWind Native SAN for Hyper-V 6.0 можно по этой ссылке. И напоминаем, что у этого решения есть полнофункциональная бесплатная версия.
Таги: StarWind, iSCSI, SAN, Update, Hyper-V, Storage, HA
Для осуществления делегирования административных задач пулы виртуальных десктопов отдельных клиентов, которым предоставляется услуга (возможно филиалов, других предприятий и т.п.) следует располагать в своей выделенной папке (folder) иерархии VMware View Manager. Пулы виртуальных десктопов различных типов также рекомендуется располагать в отдельных папках (folder) иерархии VMware View Manager... Таги: VMware, View, Security, Blogs, Enterprise, vSphere, VDI
Многие знают компанию StarWind как производителя средства номер 1 для создания отказоустойчивых хранилищ StarWind iSCSI SAN под виртуальные машины VMware vSphere. Не так давно вышла обновленная версия StarWind iSCSI SAN 6.0 этого решения. Но, как известно, StarWind предлагает еще и отказоустойчивое решение для серверов Hyper-V.
15 ноября компания StarWind сделала 3 важных анонса, которые вам будут, безусловно, интересны:
Во-первых, вышла новая версия продукта под гипервизор Microsoft Hyper-V: StarWind Native SAN 6.0 (документ с описанием новых возможностей вот тут)
Во-вторых, вышла финальная версия решения для резервного копирования виртуальных машин на VMware vSphere, поставляемого в виде плагина - VMware Backup Plug-in. Теперь продукт полностью поддерживает новую платформу VMware vSphere 5.1.
Поскольку из этих новостей самая интересная - третья, то мы расскажем о бесплатном продукте StarWind Native SAN for Hyper-V Free edition. Он позволяет построить небольшой, но отказоустойчивый кластер хранилищ из двух серверов Microsoft Hyper-V на основе протокола iSCSI, без необходимости вложений во что бы то ни было - серверы под СХД или лицензии. Можно взять 2 обычных хост-сервера Hyper-V и забацать кластер.
Давайте взглянем на отличие бесплатного продукта от его платной версии:
StarWind Native SAN for Hyper-V
Free Edition - бесплатно
Small Business
Midsize Business
Enterprises
Компоненты продукта
Лицензируемая емкость хранилищ
Не ограничена
(HA-хранилище ограничено размером 128 ГБ)
1 ТБ / 2 ТБ (HA)
4 ТБ / 8 ТБ (HA)
16 ТБ/Не ограничено (HA)
Централизованное управление
StarWind Console
StarWind Console
StarWind Console
StarWind Console
Число серверов, входящее в лицензию
2
2 или 3
2 или 3
2 или 3
Число одновременных соединений по iSCSI к хранилищам
Из таблицы видно, что бесплатная версия StarWind Native SAN for Hyper-V Free edition практически ничем не отличается от платной, кроме ограничения на размер отказоустойчивого хранилища в 128 ГБ. Полное сравнение платного и бесплатного изданий StarWind Native SAN for Hyper-V доступно по этой ссылке.
Мы уже не раз затрагивали тему vswp-файлов виртуальных машин (файлы подкачки), которые используются для организации swap-пространства гипервизором VMware ESXi. Эти файлы выполняют роль последнего эшелона среди техник оптимизации памяти в условиях недостатка ресурсов на хосте. Напомним, что в гипервизоре VMware ESXi есть такие техники как Transparent Page Sharing, Memory Ballooning, a также Memory Compression, которые позволяют разбираться с ситуациями нехватки памяти, необходимой виртуальным машинам.
Напомним также, что первым эшелоном оптимизации памяти является техника Memory Ballooning. Она работает за счет использования драйвера vmmemctl.sys (для Windows), поставляемого вместе с VMware Tools. Он позволяет "надуть" шар внутри гостевой ОС (balloon), который захватывает физическую память, выделенную этой ОС (если ее много), и отдает ее другим гостевым операционным системам, которые в ней нуждаются. Этот balloon не позволяет гостевой ОС производить работу приложений с данной областью памяти, поэтому если им потребуется дополнительная память - она будет уходить в гостевой своп. Это более правильный подход, чем свопировать гостевую ОС в файл подкачки vswp на томе VMFS, поскольку операционная система сама лучше разбирается, что и когда ей класть и доставать из свопа (соответственно, быстродействие выше).
Однако, когда памяти у всех виртуальных машин совсем мало или отдельной ВМ ее требуется больше, чем сконфигурировано, а также происходит постоянное обращение к памяти (особенно, если в гостевых ОС нет VMware Tools), гипервизор начинает использовать vswp-файл подкачки, который по умолчанию находится в папке с виртуальной машиной. Мы уже писали о том, что в целях повышения быстродействия можно положить vswp-файлы виртуальных машин на локальные SSD-хранилища серверов ESXi, а также о том, как удалять мусорные файлы vswp.
Ниже мы приведем 8 фактов о swap-файлах виртуальных машин, которые основаны на вот этой заметке Фрэнка Деннемана:
1. Хранение vswp-файлов на локальных дисках сервера ESXi (в том числе Swap to Host Cache) увеличивает время vMotion. Это очевидно, так как приходится копировать vswp-файл в директорию ВМ (или другую настроенную директорию), чтобы его видел целевой хост.
2. С точки зрения безопасности: vswp-файл не чистится перед созданием. То есть там лежат не нули, а предыдущие данные блоков. Напоминаем, что размер файла подкачки равен размеру сконфигурированной памяти ВМ (если не настроен Reservation). Если же у машины есть Reservation, то размер vswp-файла определяется по формуле:
То есть, если в настройках памяти машины ей выделено 4 ГБ, а Reservation настроен в 1 ГБ, то vswp-файл будет составлять 3 ГБ.
3. Как происходит копирование vswp-файла при vMotion? Сначала создается новый vswp-файл на целевом хосте, а потом копируются только swapped out страницы с исходного в целевой vswp-файл.
4. Что происходит при разнице в конфигурации размещения vswp-файлов в кластере и для отдельных хостов? Напомним, что в настройках кластера VMware vSphere есть 2 опции хранения vswp-файлов: в папке с ВМ (по умолчанию) и в директории, которая указана в настройках хоста:
Если на одном хосте настроена отдельная директория для vswp, а на другом нет (то есть используется папка ВМ), то при vMotion такой виртуальной машины vswp-файл будет скопирован (в папку с ВМ), несмотря на то, что целевой хост видит эту директорию на исходном.
5. Обработка файлов подкачки при нехватке места. Если в указанной директории не хватает места для свопа ВМ, то VMkernel пытается создать vswp-файл в папке с ВМ. Если и это не удается, то виртуальная машина не включается с сообщением об ошибке.
6. vswp-файл лучше не помещать на реплицируемое хранилище. Это связано с тем, что используемые страницы памяти, находящиеся в двух синхронизируемых файлах, будут постоянно реплицироваться, что может вызывать снижение производительности репликации, особенно если она синхронная и особенно при vMotion в недефолтной конфигурации (когда происходит активное копирование страниц и их репликация):
7. Если вы используете снапшоты на уровне хранилищ (Datastore или LUN), то лучше хранить vswp-файлы отдельно от этих хранилищ - так как в эти снапшоты попадает много ненужного, содержащегося в своп-файлах.
8. Нужно ли класть vswp-файлы на хранилища, которые развернуты на базе thin provisioned datastore (на уровне LUN)? Ответ на этот вопрос зависит от того, как вы мониторите свободное место на тонких лунах и устройствах своего дискового массива. При создании vswp-файла VMkernel определяет его размер и возможность его создания на уровне хоста ESXi, а не на уровне устройства дискового массива. Поэтому если vswp-файл активно начнет использоваться, а вы этого не заметите при неправильной конфигурации и отсутствии мониторинга тонких томов - то могут возникнуть проблемы с их переполнением, что приведет к сбоям в работе ВМ.
Представляем вам очередную статью нового автора VM Guru - Максима Федотенко. В первой части статьи Максима "Рекомендации по защите инфраструктуры виртуальных десктопов, созданных на базе платформы VMware View" было рассказано о сетевой инфраструктуре в контексте безопасности VDI-решения. Во второй статье цикла речь пойдет о некоторых рекомендациях по настройкам серверов и служб технологической инфраструктуры VMware View.
Невозможно ощутить все преимущества виртуализации, не имея систему хранения данных. В рамках данного семинара мы расскажем, почему СХД NetApp наилучшим образом подходит для построения виртуальной инфраструктуры:
Невозможно ощутить все преимущества виртуализации, не имея систему хранения данных. В рамках данного семинара мы расскажем, почему СХД NetApp наилучшим образом подходит для построения виртуальной инфраструктуры:
Frank Denneman опять написал интересную статью. Оказывается у механизма VMware Storage DRS, который производит балансировку виртуальных машин по хранилищам кластера SDRS, есть механизм задания допустимого уровня over-commitment для хранилища при миграции ВМ на тонких дисках.
Как вы знаете, у тонких VMDK-дисков (Thin Disks) виртуальных машин есть 2 параметра:
Provisioned Space - максимальный размер VMDK-файла, до которого может вырости диск виртуальной машины.
Allocated Space - текущий размер растущего VMDK-диска.
Разность этих двух парметров есть значение IdleMB, отражающее объем, на который виртуальный диск еще может вырасти. В расширенных настройках Storage DRS можно задать параметр PercentIdleMBinSpaceDemand, который определяет, сколько процентов от IdleMB механизм SDRS прибавляет к Allocated Space при выдаче и применении рекомендаций по размещению виртуальных машин на хранилищах кластера.
Рассмотрим на примере. Пусть максимальный размер диска VMDK составляет 6 ГБ при Allocated Space в 2 ГБ. Допустим мы задали PercentIdleMBinSpaceDemand = 25%. Тогда мы получим такую картину:
Таким образом, при размещении виртуальной машины на хранилище механизм Storage DRS будет считать, что ВМ занимает не 2 ГБ дискового пространства, а 2+0.25*4 = 3 ГБ. Ну и увидев такую машину на 10 ГБ-хранилище, механизм SDRS, при расчете выравнивания хранилищ по заполненности, будет считать что она занимает 3 ГБ, и свободно осталось лишь 7 ГБ.
Регулируя эту настройку можно добиться различных коэффициентов консолидации тонких VMDK-дисков машин на хранилищах. Ну и очевидно, что значение параметра PercentIdleMBinSpaceDemand равное 100% приведет к тому, что тонкие диски при размещении будут учитываться как их обычные flat-собратья.
Многие из вас уже знакомы с сертфицированным средством vGate R2, которое предназначено для защиты виртуальной инфраструктуры VMware vSphere средствами политик безопасности для хост-серверов и виртуальных машин, а также за счет механизма защиты от несанкционированного доступа. Сегодня мы детально рассмотрим существующие в vGate R2 политики безопасности и опишем некоторые рекомендации по их применению.
Не так давно мы уже писали о новой версии решения для создания отказоустойчивых хранилищ для серверов VMware vSphere - StarWind
iSCSI SAN & NAS 6.0. Одной из ключевых новых возможностей продукта является возможность создания треузловых кластеров хранилищ, которые более эффективны с экономической точки зрения, чем двухузловые.
В этой заметке мы приведем доступные издания StarWind
iSCSI SAN & NAS 6.0. Издание StarWind CDP - это просто iSCSI Target, без функций высокой надежности, которое обеспечивает защиту данных только средствами снапшотов. Издания High Availability - это полнофункциональные версии продукта, одинаковые по функционалу, но различающиеся лицензируемой емкостью хранилищ.
Возможности StarWind
iSCSI SAN & NAS 6.0:
Издание StarWind CDP
Издания High Availability
Назначение
Средний и малый бизнес
Малый бизнес
Средний бизнес
Крупный бизнес
Компоненты продукта
Доступная емкость хранилищ
Не ограничена
1ТБ/2ТБ/4TB/8ТБ
16ТБ/32ТБ/64ТБ
128ТБ/256ТБ/512ТБ
Централизованное управление
StarWind Console
StarWind Console
StarWind Console
StarWind Console
Число узлов, включенное в лицензию
1
2/3
2/3
2/3
Число одновременных iSCSI-соединений
Не ограничено
Не ограничено
Не ограничено
Не ограничено
Число Ethernet-портов
Не ограничено
Не ограничено
Не ограничено
Не ограничено
Число обслуживаемых физических и виртуальных дисков
Мы уже писали о новых возможностях VMware vSphere 5.1 - серверной платформы виртуализации, которая была анонсирована и выпущена на конференции VMowrld 2012. Вместе с выпуском обновленной версии продукта компания VMware внесла достаточно много изменений в издания и политики лицензирования продукта, так как почувствовала сильное давление со стороны основного конкурента - платформы Hyper-V в новой версии ОС Windows Server 2012 со множеством новых возможностей, по совокупности которых инфраструктура Microsoft почти не уступает VMware vSphere.
Итак, основные изменения в изданиях и лицензировании VMware vSphere 5.1:
Полная отмена лимитов по vRAM и числу ядер для лицензии на процессор. Напомним, что ранее (в vSphere 5.0) при превышении суммарного значения сконфигурированной оперативной памяти виртуальных машин (vRAM) для лицензии на процессор определенного издания, пользователи были вынуждены докупать еще лицензий, чтобы соответствовать условиям VMware. Эта политика и раньше вызывала очень много вопросов, так как демотивировала пользователей наращивать коэффициент консолидации виртуальных машин на хостах VMware ESXi (превышаешь порог по памяти для лицензии->платишь больше), что противоречит самой идее виртуализации. Теперь этих ограничений нет, единица лицензирования - физический процессор сервера, при этом не важно сколько в нем ядер и памяти у самого сервера. Мы писали об этом тут.
Во всех изданиях vSphere 5.1, начиная с Essentials Plus, появился виртуальный модуль vSphere Storage Appliance 5.1. Об этом продукте мы уже писали вот тут. Нужен он для создания общего хранилища под виртуальные машины, которое можно создать на базе локальных дисков серверов. Этот продукт обновился и теперь доступен для построения распределенной архитектуры кластеров хранилищ, управляемых через один vCenter.
Издание VMware vSphere 5.1 Standard приобрело множество возможностей. К ним относятся: механизм резервного копирования vSphere Data Protection (подробнее здесь), "горячее" добавление устройств виртуальной машины Hot Add, фреймворк антивирусной защиты vShield Endpoint, возможность репликации виртуальных машин vSphere Replication, кластеры непрерывной доступности vSphere Fault Tolerance и, главное, механизм "горячей" миграции хранилищ виртуальных машин vSphere Storage vMotion.
Издание VMware vSphere 5.1 Essentials Plus приобрело множество возможностей. К ним относятся: механизм резервного копирования vSphere Data Protection (подробнее здесь), фреймворк антивирусной защиты vShield Endpoint и возможность репликации виртуальных машин vSphere Replication.
Важный момент: пользователи vSphere 5.0 теперь не имеют ограничений по vRAM. То есть, изменения в лицензированию имеют обратную силу.
Издание VMware vSphere 5.1 Enterpise Plus позволяет иметь до 64 vCPU виртуальных машин.
Как и всегда, пользователи VMware vSphere 5.0 с действующей подпиской и поддержкой (SnS) обновляются на VMware vSphere 5.1 бесплатно.
Все издания продукта VMware vCenter (Essentials, Foudation и Standard) включают в себя следующие возможности:
Management service – централизованная консоль управления.
Database server – сервер БД.
Inventory service – сервис поиска по виртуальной инфраструктуре, в том числе с несколькими vCenter, а также средства кэширования запросов клиентов, что повышает производительность.
VMware vSphere Clients - "толстая" и "тонкая" консоли администрирования (Web Client теперь основной), позволяющие управлять несколькими vCenter одновременно.
VMware vCenter APIs and .NET Extension – интеграция vCenter со сторонними плагинами.
vCenter Single Sign-On – возможность единовременного логина на сервер без необходимости вводить учетные данные в различных сервисах управления виртуальной инфраструктурой.
Издание Standard, помимо возможности управления неограниченным количеством хост-серверов, предоставляет следующие возможности:
vCenter Orchestrator – средство автоматизации рабочих процессов в виртуальной инфраструктуре.
vCenter Server Linked Mode – общее окружение для нескольких серверов vCenter Server.
Недавно мы уже писали о том, как работает технология балансировки нагрузки на хранилища VMware Storage DRS (там же и про Profile Driven Storage). Сегодня мы посмотрим на то, как эта технология работает совместно с различными фичами дисковых массиов, а также функциями самой VMware vSphere и других продуктов VMware.
Для начала приведем простую таблицу, из которой понятно, что поддерживается, а что нет, совместно с SDRS:
Возможность
Поддерживается или нет
Рекомендации VMware по режиму работы SDRS
Снапшоты на уровне массива (array-based snapshots)
Поддерживается
Ручное применение рекомендаций (Manual Mode)
Дедупликация на уровне массива (array-based deduplication)
Поддерживается
Ручное применение рекомендаций (Manual Mode)
Использование "тонких" дисков на уровне массива (array-based thin provisioning)
Поддерживается
Ручное применение рекомендаций (Manual Mode)
Использование функций автоматического ярусного хранения (array-based auto-tiering)
Поддерживается
Ручное применение рекомендаций (Manual Mode), только для распределения по заполненности хранилищ (auto-tiering по распределению нагрузки сам решит, что делать)
Репликация на уровне массива (array-based replication)
Автоматическое применение рекомендаций (Fully Automated Mode)
Технология репликации на уровне хоста (VMware vSphere Replication)
Не поддерживается
-----
Снапшоты виртуальных машин (VMware vSphere Snapshots)
Поддерживается
Автоматическое применение рекомендаций (Fully Automated Mode)
Использование "тонких" дисков на уровне виртуальных хранилищ (VMware vSphere Thin Provisioning)
Поддерживается
Автоматическое применение рекомендаций (Fully Automated Mode)
Технология связанных клонов (VMware vSphere Linked Clones)
Не поддерживается
-----
"Растянутый" кластер (VMware vSphere Storage Metro Cluster)
Поддерживается
Ручное применение рекомендаций (Manual Mode)
Хосты с версией ПО, младше чем vSphere 5.0
Не поддерживается
-----
Использование совместно с продуктом VMware vSphere Site Recovery Manager
Не поддерживается
-----
Использование совместно с продуктом VMware vCloud Director
Не поддерживается
-----
Комментарии к таблице:
Снапшоты на уровне массива - они никак не влияют на работу механизма SDRS, однако рекомендуется оставить его в ручном режиме, чтобы избежать возможных проблем при одновременном создании снапшота и перемещении виртуальных дисков.
Дедупликация на уровне массива - полностью совместима со механизмом SDRS, однако рекомендуется ручной режим, так как, с точки зрения дедупликации, наиболее эффективно сначала применить рекомендации по миграции виртуальных дисков, а потом уже использовать дедупликацию (для большинства сценариев).
Использование array-based auto-tiering - очевидно, что функции анализа производительности в дисковом массиве и перемещения данных по ярусам с различными характеристиками могут вступить вступить в конфликт с алгоритмами определения нагрузки в SDRS и перемещения vmdk-дисков по хранилищам на логическом уровне. Сам Storage DRS вступает в действие после 16 часов анализа нагрузки и генерирует рекомендации каждые 8 часов, в дисковом же массиве механизм перераспределения блоков по ярусам может работать по-разному: от real-time процесса в High-end массивах, до распределения каждые 24 часа в недорогих массивах. Понятно, что массиву лучше знать, какие блоки куда перемещать с точки зрения производительности физических устройств, поэтому для SDRS рекомендуется оставить выравнивание хранилищ только по заполненности томов VMFS, с отключенной I/O Metric.
Репликация на уровне массива - полностью поддерживается со стороны SDRS, однако, в зависимости от использования метода репликации, во время применения рекомендаций SDRS виртуальные машины могут остаться в незащищенном состоянии. Поэтому рекомендуется применять эти рекомендации SDRS во время запланированного окна обслуживания хранилищ.
VMware vSphere Storage Metro Cluster - здесь нужно избегать ситуации, когда виртуальный диск vmdk машины может уехать на другой сайт по отношению к хосту ESXi, который ее исполняет (когда используется общий Datastore Cluster хранилищ). Поэтому, а еще и потому, что распределенные кластеры могут строиться на базе технологий синхронной репликации хранилищ (см. предыдущий пункт), нужно использовать ручное применение рекомендаций SDRS.
Поддержка VMware vSphere Site Recovery Manager - на данный момент SDRS не обнаруживает Datastore Groups в SRM, а SRM не отслеживает миграции SDRS по хранилищам. Соответственно, при миграции ВМ на другое хранилище не обновляются protection groups в SRM, как следствие - виртуальные машины оказываются незащищенными. Поэтому совместное использование этих продуктов не поддерживается со стороны VMware.
Поддержка томов RDM - SDRS полностью поддерживает тома RDM, однако эта поддержка совершенно ничего не дает, так как в миграциях может участвовать только vmdk pointer, то есть прокси-файл виртуального диска, который занимает мало места (нет смысла балансировать по заполненности) и не генерирует никаких I/O на хранилище, где он лежит (нет смысла балансировать по I/O). Соответственно понадобиться эта поддержка может лишь на время перевода Datastore, где лежит этот файл-указатель, в режим обслуживания.
Поддержка VMware vSphere Replication - SDRS не поддерживается в комбинации с хостовой репликацией vSphere. Это потому, что файлы *.psf, используемые для нужд репликации, не поддерживаются, а даже удаляются при миграции ВМ на другое хранилище. Вследствие этого, механизм репликации для смигрированной машины считает, что она нуждается в полной синхронизации, что вызывает ситуацию, когда репликация будет отложена, а значит существенно ухудшатся показатели RTO/RPO. Поэтому (пока) совместное использование этих функций не поддерживается.
Поддержка VMware vSphere Snapshots - SDRS полностью поддерживает спапшоты виртуальных машин. При этом, по умолчанию, все снапшоты и виртуальные диски машины при применении рекомендаций перемещаются на другое хранилище полностью (см. левую часть картинки). Если же для дисков ВМ настроено anti-affinity rule, то они разъезжаются по разным хранилищам, однако снапшоты едут вместе со своим родительским диском (см. правую часть картинки).
Использование тонких дисков VMware vSphere - полностью поддерживается SDRS, при этом учитывается реально потребляемое дисковое пространство, а не заданный в конфигурации ВМ объем виртуального диска. Также SDRS учитывает и темпы роста тонкого виртуального диска - если он в течение последующих 30 часов может заполнить хранилище до порогового значения, то такая рекомендация показана и применена не будет.
Технология Linked Clones - не поддерживается со стороны SDRS, так как этот механизм не отслеживает взаимосвязи между дисками родительской и дочерних машин, а при их перемещении между хранилищами - они будут разорваны. Это же значит, что SDRS не поддерживается совместно с продуктом VMware View.
Использование с VMware vCloud Director - пока не поддерживается из-за проблем с размещением объектов vApp в кластере хранилищ.
Хосты с версией ПО, младше чем vSphere 5.0 - если один из таких хостов поключен к тому VMFS, то для него SDRS работать не будет. Причина очевидна - хосты до ESXi 5.0 не знали о том, что будет такая функция как SDRS.
Продолжаем вас знакомить с продуктом номер 1 StarWind iSCSI SAN, который удобно и просто использовать для создания отказоустойчивых хранилищ виртуальных машин VMware vSphere, Microsoft Hyper-V и Citrix XenServer. Так уж получилось, что мы рассказывали об использовании этого продукта на платформах VMware и Microsoft, а вот для XenServer от Citrix почти ничего не писали.
На эту тему можно порекомендовать несколько статей от sysadminlab.net, где на примере вот такой простецкой инсталляции:
рассматриваются основные аспекты применения продукта для создания iSCSI-хранилищ под виртуальные машины:
Мы уже писали о том, что такое и как работает технология VMware vStorage API for Array Integration (VAAI) (а также немного тут), которая позволяет передать операции по работе с хранилищами, которые выполняет компонент Data Mover в VMkernel, на сторону дискового массива. Это существенно улучшает показатели производительности различных операций (клонирования и развертывания ВМ, использования блокировок) за счет того, что они выполняются самим массивом, без задействования сервера VMware ESXi:
Если ваш массив не поддерживает примитивы VAAI, то чтобы склонировать виртуальный диск VMDK размером 64 ГБ, компонент Data Mover реализует эту операцию следующим образом:
Разделяет диск 64 ГБ на малые порции размером в 32 МБ.
Эту порцию 32 МБ Data Mover разделяет еще на маленькие операции ввода-вывода (I/O) размером в 64 КБ, которые идут в 32 параллельных потока одновремнно.
Соответственно, чтобы передать 32 МБ, Data Mover выполняет 512 операций ввода вывода (I/Os) по 64 КБ.
Если же массив поддерживает примитив XCOPY (он же Hardware Offloaded Copy и SAN Data Copy Offloading), то для передачи тех же 32 МБ будут использованы I/O размером в 4 МБ, а таких I/O будет, соответственно, всего 8 штук - разница очевидна.
Интересно, как работает VAAI с точки зрения ошибок при передаче данных: например, мы делаем клонирование ВМ на массиве с поддержкой VAAI, и вдруг возникает какая-то ошибка. В этом случае VMkernel Data Mover подхватывает операцию клонирования с того места, где VAAI вызвал ошибку, и производит "доклонирование" виртуальной машины. Далее ESXi периодически будет пробовать снова использовать VAAI на случай, если это была кратковременная ошибка массива.
При этом проверки в разных версиях ESXi будут производиться по-разному:
Для ESX/ESXi 4.1 проверка будет производиться каждые 512 ГБ передаваемых данных. Посмотреть этот параметр можно следующей командой:
# esxcfg-advcfg -g /DataMover/HardwareAcceleratedMoveFrequency Value of HardwareAcceleratedMoveFrequency is 16384
Это значение частоты 16384 нужно умножить на порцию 32 МБ и мы получим 512 ГБ. Чтобы поменять эту частоту, можно использовать команду:
Для ESXi 5.0 и выше все проще - проверка производится каждые 5 минут.
Помимо описанных в нашей статье примитивов Full Copy, Zero Block и ATS, начиная с версии ESXi 5.0, поддерживаются еще 2 примитива:
Thin Provisioning - механизм сообщения хостом ESXi дисковому массиву о том, что виртуальная машина или ее файлы с Thin LUN были удалены или перемещены (в силу разных причин - Storage vMotion, консолидация снапшотов и так далее), поэтому массив может забрать это дисковое пространство себе назад.
С точки зрения дисковых массивов, работающих на NFS (прежде всего, NetApp) в ESXi 5.0 также появилась поддержка примитивов VAAI:
Full File Clone – аналог функций Full Copy для VAAI на блочных хранилищах, предназначен для клонирования файлов виртуальных дисков VMDK.
Native Snapshot Support – передача на сторону массива функций создания снапшота ВМ.
Extended Statistics – включает возможность просмотра информации об использовании дискового пространства на NAS-хранилище, что полезно для Thin Provisioning.
Reserve Space – включает возможность создания виртуальных дисков типа "thick" (фиксированного размера) на NAS-хранилищах (ранее поддерживались только Thin-диски).
Функции VAAI включены по умолчанию и будут использованы тогда, когда станут доступны (например, при обновлении Firmware дискового массива, которое поддерживает VAAI).
Таги: VMware, vSphere, VAAI, Storage, ESXi, Enterprise, SAN
Компания StarWind Software, выпускающая продукт номер 1 StarWind iSCSI SAN для создания хранилищ для виртуальных машин на платформах VMware vSphere и Microsoft Hyper-V, приглашает на вебинар "Introduction to SAN Infrastructures", посвященный созданию отказоустойчивой архитектуры хранения на базе данных платформ и протокола iSCSI, который пройдет 26 июля. Таги:
Многие интересующиеся значимыми событиями, происходящими на рынке виртуализации, уже, наверное, читали о том, что VMware приобрела компанию Nicira за 1,26 миллиарда долларов (из них $1,05 млрд. - кэшем, что весьма много). Сумма этой сделки заставляет обратить на нее внимание и задуматься над тем, как ведущие компании в сфере облачных вычислений видят себе будущее частных облаков.
Для начала небольшой видео-обзор решения Nicira (основной продукт компании - Nicira Network Virtualization Platform ):
Из ролика ничего не понятно - это неудивительно, поскольку технология эта фундаментальная и весьма непростая. Начнем с проблемы, которая существует в крупных компаниях по всему миру, использующих технологии виртуализации на платформе VMware vSphere. Крутые и большие организации уже давно видят виртуализацию не только как платформу, но и как основу существования облаков в контексте абстракции вычислительных ресурсов:
Основа данной концепции такова: мы берем различное железо и хранилища, которые есть в нашем датацентре, объединяем их в общий пул с помощью платформы виртуализации серверов. Далее эти вычислительные мощности и стораджи мы отделяем от логической ценностной единицы ИТ - приложений - с помощью абстракций - виртуальных машин и виртуальных хранилищ. Общий вычислительный пул датацентра мы разрезаем на логически удобные нам единицы (пулы ресурсов) и дальше предоставляем пользователям виртуальные машины с соответствующим уровнем SLA из абстрактных сущностей, которые построены поверх оборудования и вычислительной архитектуры с определенными характеристиками. Делается это с помощью VMware vCloud Director с его концепцией виртуальных датацентров:
Следующий аспект: виртуальные машины существуют на серверах и хранилищах уже на логическом, а не на физическом уровне (независимо от вендоров железа), как сделать так, чтобы в датацентре они были защищены политиками, да и сам периметр датацентра тоже был защищен? Ответ прост - есть семейство продуктов VMware vShield:
Прекрасно. Вроде все? Нет, не все. Невиртуализованной у нас осталась еще одна часть, а именно - сети. VMware предоставляет нам распределенный виртуальный коммутатор (Distributed vSwitch) с базовыми технологиями изоляции и контроля (Private VLAN), есть также продукт от Cisco - Nexus 1000V, который выполняет схожие функции, но обладает более широкими возможностями. Все это делается на уровне абстракции сетевых интерфейсов хост-серверов.
Однако в данном подходе нет самого главного - средств абстракции и виртуализации физического сетевого оборудования (коммутаторов, маршрутизаторов), большим парком которых применительно к виртуальным машинам нужно централизованно управлять в датацентре компании, где есть сотни виртуальных сетей, политик и конфигураций. Все это приводит к тому, что на развертывание новой виртуальной машины уходит 2-3 минуты (на сервере+хранилище), а вот на настройку сетевого взаимодействия, VLAN, безопасности, политик и прочего в забюрократизированных организациях уходит несколько дней.
Вот эту фундаментальную проблему и решает компания Nicira, так недешево доставшаяся VMware:
Суть концепции Nicira применительно к сетевому взаимодействию та же самая, что и в серверной виртуализации: собираем весь набор сетевого оборудования разных вендоров в единый пул, где уже на логическом уровне определяем виртуальные сети и политики, после чего можем цеплять их к виртуальным машинам централизованно:
Все это называется программно-определяемые сети (Software-defined networking, SDN) и работает на базе программных решений, разрабатываемых Nicira с далекого 2007 года. Интересно, что основательница VMware, Диана Грин, которую двинули с поста CEO компании, была одним из инвесторов Nicira, о чем мы писали 2 года назад. Диана вышла с неплохим профитом, а Nicira теперь позволит VMware получить законченную концепцию полной виртуализации облачного датацентра. Как нам и обещали, VMware вполне может стать "VMware of Networking". Кстати, теперь при покупке Nicira компания VMware снова двигает своего CEO.
Если тема вам интересна, можно почитать следующие материалы:
Ну и следующая новость - покупка компанией VMware конторы DynamicOps (продукт Virtual Resource Manager, VRM). Эта контора была выделена из небезызвестного банка Credit Suisse и разрабатывает средства для автоматизации гибридных облаков на базе нескольких гипервизоров (что неизбежно будет в крупных организациях с приходом Hyper-V 3.0), а также средства управления сервисными архитектурами вроде Platform-as-a-Service, Database-as-a-Service и Storage-as-a-Service.
Компания StarWind Software, выпускающая продукт номер 1 StarWind iSCSI SAN для создания хранилищ для виртуальных машин на платформах VMware vSphere и Microsoft Hyper-V, приглашает на вебинар "Introduction to SAN Infrastructures", посвященный созданию отказоустойчивой архитектуры хранения на базе данных платформ и протокола iSCSI, который пройдет завтра, 26 июля.
В рамках вебинара вы узнаете о том, как:
Настроить зеркало синхронизированных хранилищ с автоматическим восстановлением после отказа без простоя виртуальных машин
Создать синхронно реплицированную копию данных виртуальных хранилищ на DR-площадке